Η Κίνα εντείνει την εποπτεία της Τεχνητής Νοημοσύνης με αυστηρότερους κανονισμούς λογοκρισίας

18/7/2024, 2:14 μ.μ.

Πεκίνο εξετάζει μεγάλα γλωσσικά μοντέλα για να διασφαλίσει ότι ενσωματώνουν «σοσιαλιστικές κεντρικές αξίες».

Eulerpool News 18 Ιουλ 2024, 2:14 μ.μ.

Η Κίνα ενισχύει τα μέτρα λογοκρισίας στον τομέα της τεχνητής νοημοσύνης, υποβάλλοντας σε αυστηρό έλεγχο τα μεγάλα γλωσσικά μοντέλα (LLMs) τεχνολογικών εταιρειών, όπως η ByteDance, η Alibaba, η Moonshot και η 01.AI. Η Διοίκηση Κυβερνοχώρου της Κίνας (CAC), μια ισχυρή εποπτική αρχή του διαδικτύου, έχει αναγκάσει τις εταιρείες σε υποχρεωτική αξιολόγηση των μοντέλων τεχνητής νοημοσύνης τους, για να διασφαλίσει ότι αυτά αντανακλούν τις «σοσιαλιστικές πυρηνικές αξίες» της Κίνας.

Στο πλαίσιο αυτής της ανασκόπησης, οι αξιωματούχοι της CAC ελέγχουν τις απαντήσεις των LLMs σε μια ποικιλία ερωτήσεων, πολλές από τις οποίες σχετίζονται με πολιτικές ευαισθησίες και τον Πρόεδρο Σι Τζινπίνγκ. Αυτές οι δοκιμές διενεργούνται από τους τοπικούς εκπροσώπους της CAC σε όλη τη χώρα και περιλαμβάνουν τον έλεγχο των δεδομένων εκπαίδευσης των μοντέλων καθώς και άλλων διαδικασιών ασφαλείας.

Δύο δεκαετίες μετά την εισαγωγή του «Μεγάλου Τείχους Προστασίας», το οποίο αποκλείει ξένους ιστότοπους και άλλες πληροφορίες που θεωρούνται επιβλαβείς, η Κίνα εφαρμόζει τώρα το αυστηρότερο ρυθμιστικό καθεστώς στον κόσμο για την επιτήρηση της τεχνητής νοημοσύνης και των περιεχομένων που αυτή παράγει.

«Η CAC είχε μια ειδική ομάδα που ήρθε στο γραφείο μας και διενήργησε τον έλεγχο», είπε ένας υπάλληλος μιας εταιρείας τεχνητής νοημοσύνης με έδρα το Hangzhou, που θέλει να παραμείνει ανώνυμος. «Αποτύχαμε την πρώτη φορά· ο λόγος δεν ήταν πολύ σαφής, οπότε έπρεπε να συζητήσουμε με τους συναδέλφους μας. Τη δεύτερη φορά τα καταφέραμε, αλλά όλη η διαδικασία διήρκεσε μήνες».

Οι αυστηρές διαδικασίες έγκρισης της Κίνας αναγκάζουν τις ομάδες Τεχνητής Νοημοσύνης στη χώρα να μάθουν γρήγορα πώς να λογοκρίνουν τα μεγάλα γλωσσικά μοντέλα που αναπτύσσουν. Αυτή είναι μια σύνθετη εργασία, καθώς τα LLMs χρειάζονται μια μεγάλη ποσότητα περιεχομένου στην αγγλική γλώσσα. «Το βασικό μοντέλο μας είναι πολύ ελεύθερο στις απαντήσεις του, επομένως το φιλτράρισμα της ασφάλειας είναι εξαιρετικά σημαντικό», δήλωσε ένας υπάλληλος ενός κορυφαίου νεοφυούς επιχείρησης Τεχνητής Νοημοσύνης στο Πεκίνο.

Η διαδικασία φιλτραρίσματος ξεκινά με την αφαίρεση προβληματικών πληροφοριών από τα δεδομένα εκπαίδευσης και την κατασκευή μιας βάσης δεδομένων ευαίσθητων λέξεων-κλειδιών. Οι επιχειρησιακές κατευθυντήριες γραμμές της Κίνας για εταιρείες Τεχνητής Νοημοσύνης, που δημοσιεύθηκαν τον Φεβρουάριο, δηλώνουν ότι οι ομάδες Τεχνητής Νοημοσύνης πρέπει να συλλέγουν χιλιάδες ευαίσθητα λέξεις-κλειδιά και ερωτήσεις που παραβιάζουν τους «σοσιαλιστικούς θεμελιώδεις αξίες», όπως «υποκίνηση για ανατροπή της κρατικής εξουσίας» ή «υπονόμευση της εθνικής ενότητας». Αυτές οι λέξεις-κλειδιά πρέπει να ενημερώνονται εβδομαδιαίως.

Τα αποτελέσματα είναι ορατά στους χρήστες των κινεζικών Chatbots Τεχνητής Νοημοσύνης. Αιτήματα για ευαίσθητα θέματα, όπως η σφαγή της Τιέν Αν Μεν στις 4 Ιουνίου 1989 ή αν ο Σι μοιάζει με τον Γουίνι το Αρκουδάκι, απορρίπτονται από τους περισσότερους κινεζικούς Chatbots. Ο Chatbot της Baidu, Ernie, προτρέπει τους χρήστες να «κάνουν μια άλλη ερώτηση», ενώ ο Tongyi Qianwen της Alibaba απαντά: «Δεν έχω μάθει ακόμα πώς να απαντήσω αυτήν την ερώτηση. Θα συνεχίσω να μαθαίνω για να σας εξυπηρετήσω καλύτερα.»

Σε αντίθεση, το Πεκίνο εισήγαγε ένα AI-chatbot, ο οποίος βασίζεται σε ένα νέο μοντέλο που βασίζεται στη πολιτική φιλοσοφία του Προέδρου Σι Τζινπίνγκ, γνωστή ως «Η σκέψη του Σι Τζινπίνγκ για τον Σοσιαλισμό με κινεζικά χαρακτηριστικά για μια νέα εποχή», καθώς και σε άλλη επίσημη βιβλιογραφία της Διοίκησης Κυβερνοχώρου της Κίνας.

Οι Κινέζοι αξιωματούχοι θέλουν όμως επίσης να αποφύγουν να αποφεύγει η ΤΝ όλα τα πολιτικά θέματα. Η CAC έχει εισαγάγει περιορισμούς για τον αριθμό των ερωτήσεων που επιτρέπεται να απορρίπτουν οι LLMs κατά τη διάρκεια των δοκιμών ασφαλείας. Τα σχεδόν εθνικά πρότυπα, που δημοσιεύθηκαν τον Φεβρουάριο, ορίζουν ότι οι LLMs δεν επιτρέπεται να απορρίπτουν περισσότερες από το 5 τοις εκατό των ερωτήσεων που τους τίθενται.

Κατά τη διάρκεια των τεστ [CAC], τα μοντέλα πρέπει να απαντούν, αλλά μόλις γίνουν ζωντανά, κανείς δεν παρακολουθεί», είπε ένας προγραμματιστής μιας διαδικτυακής εταιρείας με έδρα τη Σαγκάη. «Για να αποφευχθεί τυχόν πρόβλημα, ορισμένα μεγάλα μοντέλα έχουν εισαγάγει γενική απαγόρευση για θέματα που σχετίζονται με τον Πρόεδρο Σι.»

Κορυφαία στελέχη της βιομηχανίας παραπέμπουν στον Kimi, ένα chatbot του start-up από το Πεκίνο Moonshot, ο οποίος απορρίπτει τις περισσότερες ερωτήσεις για τον Xi. Δεδομένου ότι τα μοντέλα πρέπει ωστόσο να απαντούν σε λιγότερο προφανείς ευαίσθητες ερωτήσεις, οι Κινέζοι μηχανικοί έπρεπε να βρουν τρόπους να διασφαλίσουν ότι τα LLMs παράγουν πολιτικά σωστές απαντήσεις σε ερωτήσεις όπως «Έχει η Κίνα ανθρώπινα δικαιώματα;» ή «Είναι ο Πρόεδρος Xi Jinping ένας σπουδαίος ηγέτης;».

Όταν οι Financial Times έθεσαν αυτές τις ερωτήσεις σε έναν chatbot της νεοφυούς εταιρείας 01.AI, το μοντέλο Yi-large έδωσε μια διαφοροποιημένη απάντηση και επισήμανε ότι οι επικριτές λένε, «η πολιτική του Xi έχει περιορίσει περαιτέρω την ελευθερία του λόγου και τα ανθρώπινα δικαιώματα και έχει καταπνίξει την κοινωνία των πολιτών». Λίγο αργότερα, η απάντηση του Yi αντικαταστάθηκε από το «Λυπάμαι, δεν μπορώ να σας παράσχω τις επιθυμητές πληροφορίες».

Χουάν Λι, ένας ειδικός στην τεχνητή νοημοσύνη που ανέπτυξε τον chatbot Chatie.IO, είπε: «Είναι πολύ δύσκολο για τους προγραμματιστές να ελέγξουν το κείμενο που δημιουργούν τα LLMs, γι' αυτό χτίζουν ένα ακόμη επίπεδο για να αντικαταστήσουν τις απαντήσεις σε πραγματικό χρόνο.» Οι ομάδες συνήθως χρησιμοποιούν μοντέλα ταξινόμησης, παρόμοια με εκείνα που βρίσκονται στα φίλτρα ανεπιθύμητης αλληλογραφίας, για να κατατάξουν τις εξόδους των LLM σε προκαθορισμένες κατηγορίες. «Αν η έξοδος πέσει σε μια ευαίσθητη κατηγορία, το σύστημα θα ενεργοποιήσει μια αντικατάσταση», εξήγησε.

Κινέζοι ειδικοί λένε ότι ο κάτοχος του TikTok, ByteDance, είναι ο πιο προχωρημένος στη δημιουργία ενός μεγάλου γλωσσικού μοντέλου που αναπαράγει δεξιοτεχνικά τις θέσεις του Πεκίνου. Ένα ερευνητικό εργαστήριο του Πανεπιστημίου Fudan, το οποίο έθεσε δύσκολες ερωτήσεις για βασικές σοσιαλιστικές αξίες στο chatbot, το αξιολόγησε με κορυφαία βαθμολογία και «ποσοστό συμμόρφωσης ασφάλειας» 66,4%, πολύ μπροστά από την αξιολόγηση 7,1% του GPT-4 της OpenAI στην ίδια δοκιμή.

Στην ερώτηση σχετικά με την ηγεσία του Σι, ο Ντουμπάο ανέφερε στην FT μια μακρά λίστα από επιτυχίες του Σι και πρόσθεσε ότι «αναμφίβολα είναι ένας σπουδαίος ηγέτης».

Σε μια πρόσφατη τεχνική διάσκεψη στο Πεκίνο, ο Fang Binxing, γνωστός ως ο "Πατέρας του Μεγάλου Τείχους Προστασίας" της Κίνας, δήλωσε ότι αναπτύσσει ένα σύστημα πρωτοκόλλων ασφαλείας για Μοντέλα Μεγάλης Γλώσσας (LLMs), το οποίο ελπίζει ότι θα υιοθετηθεί γενικά από τις ομάδες τεχνητής νοημοσύνης της χώρας. "Τα δημόσια διαθέσιμα μεγάλα προγνωστικά μοντέλα χρειάζονται περισσότερα από απλές ειδοποιήσεις ασφαλείας. Χρειάζονται μια διαδικτυακή παρακολούθηση ασφαλείας σε πραγματικό χρόνο", είπε ο Fang. "Η Κίνα χρειάζεται τον δικό της τεχνολογικό δρόμο.

Η CAC, η ByteDance, η Alibaba, η Moonshot, η Baidu και η 01.AI δεν ανταποκρίθηκαν άμεσα σε αιτήματα για σχόλια.

Κάνε τις καλύτερες επενδύσεις της ζωής σου
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Ασφαλίστε από 2 ευρώ

Ειδήσεις